英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存

  

英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存

3月22日消息,英伟达在GTC Spring2023主题演讲中,针对不断增长的AI市场推出了全新的双GPU产品H100NVL。H100NVL在顶部配备了3个NVLink连接器,使用两个相邻的PCIe显卡插槽。

英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存

  英伟达表示在运行大型语言模型(LLM)时,常规显卡的显存无法驾驭庞大的数据流。因此本次推出的H100NVL最高可以提供188GB HBM3显存,单卡显存容量94GB。

英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存

   H100NVL的功耗略高于H100PCIe,每个GPU为350-400瓦(可配置),增加了50W。

英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存

从报道中获悉,总性能实际上是H100SXM的两倍:FP64为134teraflops,TF32为1979teraflops,抖客网,FP8为7916teraflops,INT8为7916teraops。

英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存

  内存带宽也比H100PCIe高很多,每个GPU为3.9TB/s,总和为7.8TB/s(H100PCIe为2TB/s,H100SXM为3.35TB/s)。

原标题:【英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存
内容摘要:3月22日消息,英伟达在GTC Spring2023主题演讲中,针对不断增长的AI市场,推出了全新的双GPU产品H100NVL。H100NVL在顶部配备了3个NVLink连接器,使用两个相邻的PCIe显卡插槽。 英伟达表示在运行大型 ...
文章网址:https://www.doukela.com/jc/211003.html;
免责声明:抖客网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
上一篇:盘中异动 | 南方国证在线消费ETF涨2.01%
下一篇:数字经济板块表现活跃 数字经济ETF份额持续增加